Le système de modération de Facebook favorise les "partenaires commerciaux", selon le conseil de surveillance
Publié le : - mirrorpapers.com 219
Une politique Facebook conçue pour protéger les utilisateurs de haut niveau de la modération a été structurée pour satisfaire les intérêts commerciaux de l'entreprise, a constaté la "cour suprême" de Meta, et n'a pas donné la priorité à la protection de la liberté d'expression et des droits civils sur la plate-forme.
Le conseil de surveillance, qui examine les décisions de modération sur Facebook et Instagram, a déclaré que le système de «vérification croisée» des plateformes semblait favoriser les «partenaires commerciaux» – tels que les utilisateurs, y compris les célébrités qui génèrent de l'argent pour l'entreprise – tandis que les journalistes et les organisations de la société civile avaient « chemins moins dégagés » pour accéder au programme.
"Alors que Meta a déclaré au conseil d'administration que la contre-vérification vise à faire progresser les engagements de Meta en matière de droits de l'homme, nous avons constaté que le programme semble plus directement structuré pour répondre aux préoccupations des entreprises", a déclaré le conseil d'administration, ajoutant qu'il s'inquiétait du "manque de transparence" autour. le programme.
Il a déclaré que la contre-vérification accorde à certains utilisateurs une plus grande protection que d'autres, car le contenu des utilisateurs figurant sur la liste de contre-vérification est autorisé à rester actif pendant qu'il est contrôlé par des modérateurs humains appliquant la "gamme complète" des politiques de contenu. Meta l'a décrit comme une "stratégie de prévention des erreurs" qui protégeait les utilisateurs importants contre les retraits de contenu erronés.
Les utilisateurs ordinaires, en revanche, sont beaucoup moins susceptibles de voir leur contenu atteindre des réviseurs qui peuvent appliquer la gamme complète des directives de contenu de Meta.
Le conseil a déclaré que le "nombre de célébrités ou d'abonnés" d'un utilisateur ne devrait pas être le seul critère pour bénéficier de la protection spéciale offerte par le programme. Meta a admis au conseil d'administration que les critères d'inclusion des "partenaires commerciaux" sur la liste incluaient le montant des revenus qu'ils généraient.
Meta a également déclaré au conseil d'administration qu'il exemptait certains contenus des retraits. La société a décrit ce système comme des "corrections techniques" et a déclaré qu'elle en effectuait environ 1 000 par jour. Le conseil a recommandé que Meta effectue des audits des mesures d'exécution qui sont bloquées dans le système.
Le conseil a ajouté que le système de corrections techniques est considéré comme une « liste blanche ». En septembre de l'année dernière, le Wall Street Journal, utilisant des documents divulgués par la lanceuse d'alerte Frances Haugen, a rapporté que le footballeur brésilien Neymar avait répondu à une accusation de viol en 2019 en publiant des vidéos sur Facebook et Instagram se défendant, notamment en montrant aux téléspectateurs sa correspondance WhatsApp avec son accusateur. Les clips de WhatsApp – également propriété de Meta – comprenaient le nom de l'accusatrice et des photos nues d'elle.
Les modérateurs ont été empêchés pendant plus d'une journée de supprimer la vidéo, selon le WSJ, tandis que la sanction normale de désactivation de ses comptes n'a pas été appliquée. Un document interne vu par le WSJ a déclaré que les comptes de Neymar étaient restés actifs après avoir "transmis l'affaire à la direction". Neymar a nié l'allégation de viol et aucune accusation n'a été portée contre le footballeur.
Citant l'exemple de Neymar, le conseil a déclaré que bien que Meta ait déclaré qu'il disposait d'un système pour hiérarchiser les décisions de contenu, certains contenus restaient en ligne pendant des "périodes significatives" pendant que cela se produisait.
« Dans l'affaire Neymar, il est difficile de comprendre comment des images intimes non consensuelles publiées sur un compte comptant plus de 100 millions de followers ne se seraient pas hissées en tête de liste pour un examen rapide et de haut niveau si un système de priorisation avait été mis en place. A déclaré le conseil d'administration.
Le conseil a poursuivi en disant que la catégorie de «partenaire commercial» de vérification croisée comprend les utilisateurs susceptibles de générer de l'argent pour l'entreprise, soit par le biais de relations commerciales formelles, soit en attirant les utilisateurs vers les plates-formes Meta. Il a déclaré qu'en raison de la "perception de la censure", il préférait conserver le contenu plutôt que de le supprimer. Le conseil d'administration a déclaré que la catégorie des partenaires commerciaux inclurait probablement de grandes entreprises, des partis et des campagnes politiques et des célébrités.
Le conseil a formulé 32 recommandations. Ils comprenaient : la suppression de la protection spéciale pour les comptes commercialement importants s'ils enfreignent fréquemment les règles de contenu ; donner la priorité à la modération des messages importants pour les droits de l'homme ; et le contenu violant des utilisateurs de contre-vérification qui est « de gravité élevée » doit être supprimé ou masqué pendant les révisions.
Le conseil d'administration a déclaré que Meta considérait le risque d'une décision de contenu entraînant une "escalade au plus haut niveau" vers un directeur général ou le directeur de l'exploitation d'une organisation comme très sensible. Un tel contenu porte une étiquette de « sévérité extrêmement élevée » dans le cadre du système de vérification croisée. Il a déclaré que Meta semblait donc plus concentré sur les conséquences commerciales de ses décisions que sur celles liées aux droits de l'homme.
Le président des affaires mondiales de Meta, Nick Clegg, a déclaré que pour "répondre pleinement" aux recommandations du conseil d'administration, la société répondrait dans les 90 jours.